Những kẻ lừa đảo chỉ cần 3 giây để sao chép giọng nói bằng AI
Ngân hàng trực tuyến Starling Bank của Anh cảnh báo rằng, chỉ cần 3 giây âm thanh từ một video đăng trên mạng, kẻ gian có thể dùng AI sao chép giọng nói của nạn nhân để thực hiện các cuộc gọi lừa đảo.



![[Infographics] 5 dấu hiệu nhận biết cuộc gọi lừa đảo deepfake](/_next/image?url=https%3A%2F%2Fimg.baoninhbinh.org.vn%2FDATA%2FARTICLES%2F2023%2F5%2F16%2F-infographics-5-dau-hieu-nhan-biet-cuoc-goi-lua-dao-deepfake-75ba8.jpg&w=3840&q=75)
![[Infographics] Khuyến cáo về cuộc gọi lừa đảo 'con đang cấp cứu'](/_next/image?url=https%3A%2F%2Fimg.baoninhbinh.org.vn%2FDATA%2FARTICLES%2F2023%2F3%2F15%2F-infographics-khuyen-cao-ve-cuoc-goi-lua-dao-con-dang-cap-aa6d0.jpg&w=3840&q=75)
